生成模型(例如大语言模型(LLMS))被广泛用作代码副本,并用于整个程序生成。但是,他们生成的程序通常在集成方面具有可疑的正确性,安全性和可靠性,因为它们可能不遵循用户要求,不正确和/或毫无意义的输出,甚至包含语义/语法错误 - 总体称为LLM幻觉。在这项工作中,我们介绍了几种类型的代码Hal-Lucination。我们已经使用LLM手动生成了此类幻觉代码。我们还提出了一种技术 - Halltrigger,以展示产生任意代码幻觉的有效方法。我们的方法利用了3个不同的LLM的动态属性到工艺提示,可以成功地触发模型幻觉,而无需访问模型体系结构或参数。受欢迎的黑盒模型的结果表明,Halltrigger确实是有效的,而普遍的LLM幻觉对软件开发产生了巨大影响。
主要关键词
![arxiv:2407.04831v2 [cs.ai] 2024年8月8日PDF文件第1页](/bimg/9/90f28e479e0d7f84e567c13bcd9ebe91c2eac3a7.webp)
![arxiv:2407.04831v2 [cs.ai] 2024年8月8日PDF文件第2页](/bimg/1/1b76dd68f2738795ec076568102331788b07a82f.webp)
![arxiv:2407.04831v2 [cs.ai] 2024年8月8日PDF文件第3页](/bimg/0/08e9ee0e74d4a0b498f5d741a71fe09f887b5a79.webp)
![arxiv:2407.04831v2 [cs.ai] 2024年8月8日PDF文件第4页](/bimg/d/dc036d07cc33358c12c30aec4ba0739729678fd0.webp)
![arxiv:2407.04831v2 [cs.ai] 2024年8月8日PDF文件第5页](/bimg/5/5be6b5fc0d195fac9849154a8c5f52c3dbdf439c.webp)
